Un nouveau rapport de la société de conseil RAND (Research ANd Development) révèle que l’armée chinoise a adopté l’utilisation de l’intelligence artificielle (IA) pour favoriser les campagnes d’influence à l’étranger.
Les États-Unis et d’autres pays « devraient se préparer à ce type de manipulation des réseaux sociaux par l’IA » en adoptant des mesures de réduction des risques, en promouvant l’éducation aux médias ainsi que la fiabilité du gouvernement, en augmentant les rapports publics et en renforçant la coordination diplomatique, selon l’étude, publiée le 1er octobre.
Il s’agit du premier rapport axé sur la planification et les stratégies qui se cachent derrière les campagnes d’influence du Parti communiste chinois (PCC) sur les réseaux sociaux.
Les chercheurs ont enquêté sur Li Bicheng, un chercheur chinois affilié à l’armée et grand spécialiste de la manipulation des réseaux sociaux de masse, qui serait au moins en partie responsable de l’adoption de ces technologies par le régime. L’étude s’est également appuyée sur plus de 220 articles en chinois issus de revues universitaires et sur plus de 20 articles en anglais issus de conférences internationales et rédigés par Li Bicheng.
Parmi les principales conclusions, citons le fait que le PCC a commencé à développer des capacités de manipulation des réseaux sociaux dans les années 2010, qu’il est « clairement intéressé par l’exploitation de l’IA » pour ces campagnes, que les chercheurs militaires chinois mènent des travaux de pointe et que le PCC est bien positionné pour mener ces campagnes de manipulation à grande échelle.
Les chercheurs notent que les activités du PCC en matière d’IA vont à l’encontre des déclarations publiques du régime, dans lesquelles les responsables ont ouvertement affirmé leur opposition à l’utilisation de l’IA à des fins de désinformation.
Adoption des réseaux sociaux
Selon les chercheurs, la réponse initiale du PCC aux soulèvements alimentés par les réseaux sociaux, comme le Printemps arabe, a été d’agir plus sévèrement contre cette technologie.
Mais il s’est également intéressé à ce qu’il considérait comme des utilisations occidentales de la « guerre psychologique en ligne » et, en 2013, il a publié des documents de planification pour que le PCC « renforce ses capacités de communication internationale et construise un pouvoir discursif à l’étranger ».
Le chef du PCC, Xi Jinping, a prononcé cette année-là un discours appelant à « lancer une lutte contre l’opinion publique » et visant à « construire une cyberarmée puissante ».
Il a déclaré que la Chine était victime des accusations de l’Occident et que les représailles étaient justifiées.
« Nous devons mener une propagande externe, méticuleuse et correcte, et innover ».
Les années suivantes ont vu la création de nouveaux départements axés sur la propagande en ligne au sein de plusieurs organes du PCC, ainsi qu’une plus grande collaboration entre les départements dans le cadre des campagnes d’influence à l’étranger.
En 2017-2018, des efforts à grande échelle, soutenus par l’État, ont activement ciblé des groupes étrangers. Les chercheurs pensent que la campagne de désinformation « Spamouflage », qui a été identifiée comme une initiative menée par le PCC en 2023, a débuté au cours de cette période. En 2018, Taïwan avait également accusé l’armée chinoise de manipuler les réseaux sociaux pour interférer avec les élections taïwanaises, la première accusation publique de ce type.
Les campagnes de désinformation sur les réseaux sociaux ont « explosé » en 2019, selon le rapport, et ont été largement utilisées lors des manifestations de Hong Kong, puis de la pandémie du Covid-19, et plus tard lors des élections de mi-mandat aux États-Unis en 2022.
Terrain d’essai pour l’IA
En 2023, Li Bicheng a écrit dans une étude que l’affichage artificiel sur les réseaux sociaux était encore inefficace, et que le régime devait encore s’appuyer sur la main-d’œuvre humaine dans ces efforts. Il avait recherché des moyens d’utiliser l’IA pour remplacer les utilisateurs des réseaux sociaux de « l’armée des 50 cents », estimant que cela aiderait le PCC à obtenir « l’avantage de l’opinion publique dans les futures guerres informatisées ».
Li Bicheng a défini un processus en six étapes : découvrir et acquérir des informations clés ; préparer et sélectionner des supports médiatiques appropriés ; produire un contenu sur mesure pour chacune des plateformes en ligne ciblées ; choisir le moment, le mode de diffusion et les étapes appropriés ; renforcer la diffusion à travers de multiples sources en formant des « points chauds » et continuer à façonner l’environnement et à étendre l’influence.
Au cours des dernières années, il s’est efforcé de rassembler diverses technologies susceptibles d’automatiser ces différentes étapes, afin, selon les chercheurs, de créer des publications intelligentes pouvant être déployées automatiquement sur les réseaux sociaux de la manière la plus efficace et la plus personnalisée possible pour les publics ciblés.
Les chercheurs financés par le PCC développent également un environnement simulé, ou « super-réseau », pour tester ces capacités d’IA et voir si le contenu généré par l’IA a l’effet escompté, à savoir faire basculer l’opinion publique dans la direction voulue.
« L’environnement simulé s’appuie sur des données réelles existantes, sur la science cognitive et sur la modélisation des réseaux », peut-on lire dans le rapport.
« Nous soutenons que la technologie LLM [Grand modèle de langage] actuelle est suffisante pour mettre en œuvre le système automatisé d’orientation de l’opinion publique proposé par Li Bicheng ; la Chine a vraisemblablement la capacité de rendre le système opérationnel.
Comme le PCC a déjà commencé à travailler sur les technologies évoquées dans les études de 2023, il devrait être prêt et en mesure de cibler les prochaines élections présidentielles, estiment les chercheurs.
Selon le rapport, certaines preuves de campagnes de désinformation liées au PCC et générées par l’IA ont déjà fait surface en 2023, comme les images générées par l’IA de l’incendie de Hawaï et une campagne d’influence sur YouTube qui a mis en avant des récits prochinois et antiaméricains sur des sujets tels qu’une « guerre technologique entre les États-Unis et la Chine » et la géopolitique.
Le groupe de réflexion Australian Strategic Policy Institute a conclu que la campagne, qui a accumulé quelque 120 millions de vues sur YouTube en décembre 2023, était « l’une des opérations d’influence liées à la Chine les plus réussies jamais observées sur les réseaux sociaux. »
Les chercheurs de la RAND s’attendent à voir une augmentation des « bots » de réseaux sociaux faisant usage de l’IA générative à l’avenir et ont recommandé aux responsables américains et aux plateformes de médias sociaux de réduire les risques en investissant dans des moyens de détecter le contenu généré par l’IA et en exiger l’étiquetage.
Les conclusions de l’étude ne rendent pas compte de l’ampleur des opérations d’influence numérique du PCC, notent les chercheurs.
« Il est important de noter que la manipulation des réseaux sociaux n’est qu’un des nombreux moyens de la boîte à outils plus large des opérations d’influence à l’étranger du PCC et que l’armée chinoise n’est qu’un des nombreux acteurs probables qui mènent ces activités au nom du Parti-État », peut-on lire dans le rapport.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.